热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

更多|多样性_Paddle点灯人之10分钟快速上手Paddle

篇首语:本文由编程笔记#小编为大家整理,主要介绍了Paddle点灯人之10分钟快速上手Paddle相关的知识,希望对你有一定的参考价值。Paddle点灯

篇首语:本文由编程笔记#小编为大家整理,主要介绍了Paddle 点灯人 之 10分钟快速上手Paddle相关的知识,希望对你有一定的参考价值。



Paddle 点灯人 之 10分钟快速上手Paddle

文章目录


  • Paddle 点灯人 之 10分钟快速上手Paddle
    • 一、快速安装飞桨
    • 二、导入飞桨
    • 三、实践:手写数字识别任务
      • 3.1 数据集定义与加载
      • 3.2 模型组网
      • 3.3 模型训练与评估
        • 3.3.1 模型训练
        • 3.3.2 模型评估

      • 3.4 模型推理
        • 3.4.1 模型保存
        • 3.4.2 模型加载并执行推理


    • 四、总结



这个是参考了飞浆的
10分钟快速上手,也可以去AI studio中快速运行

从完成一个简单的『手写数字识别任务』开始,可快速了解深度学习模型开发的大致流程,并初步掌握飞桨框架 API 的使用方法。


一、快速安装飞桨

如果已经安装好飞桨那么可以跳过此步骤。飞桨支持很多种安装方式,这里介绍其中一种简单的安装命令。



注:目前飞桨支持 Python 3.6 ~ 3.9 版本,pip3 要求 20.2.2 或更高版本,请提前安装对应版本的 Python 和 pip 工具。


# 使用 pip 工具安装飞桨 CPU 版
!python3 -m pip install paddlepaddle -i https://mirror.baidu.com/pypi/simple

该命令用于安装 CPU 版本的飞桨。如果要安装其他计算平台或操作系统支持的版本,可点击 快速安装 查看安装引导。


二、导入飞桨

安装完成后,需要在Python解释器中使用 import 导入飞桨,即可开始实践深度学习任务。

若操作成功,会输出飞桨的版本号。

import paddle
print(paddle.__version__)

2.2.1

三、实践:手写数字识别任务

『手写数字识别』是深度学习里的 Hello World 任务,用于对 0 ~ 9 的十类数字进行分类,即输入手写数字的图片,可识别出这个图片中的数字。

本任务用到的数据集为 MNIST 手写数字数据集,用于训练和测试模型。该数据集包含 60000 张训练图片、 10000 张测试图片、以及对应的分类标签文件,每张图片上是一个 0 ~ 9 的手写数字,分辨率为 28 * 28。部分图像和对应的分类标签如下图所示。



图 1:MNIST 数据集样例

开始之前,需要使用下面的命令安装 Python 的 matplotlib 库和 numpy 库,matplotlib 库用于可视化图片,numpy 库用于处理数据。

# 使用 pip 工具安装 matplotlib 和 numpy
!python3 -m pip install matplotlib numpy -i https://mirror.baidu.com/pypi/simple

下面是手写数字识别任务的完整代码,如果想直接运行代码,可以拷贝下面的完整代码到一个Python文件中运行。

import paddle
import numpy as np
from paddle.vision.transforms import Normalize
transform = Normalize(mean=[127.5], std=[127.5], data_format='CHW')
# 下载数据集并初始化 DataSet
train_dataset = paddle.vision.datasets.MNIST(mode='train', transform=transform)
test_dataset = paddle.vision.datasets.MNIST(mode='test', transform=transform)
# 模型组网并初始化网络
lenet = paddle.vision.models.LeNet(num_classes=10)
model = paddle.Model(lenet)
# 模型训练的配置准备,准备损失函数,优化器和评价指标
model.prepare(paddle.optimizer.Adam(parameters=model.parameters()),
paddle.nn.CrossEntropyLoss(),
paddle.metric.Accuracy())
# 模型训练
model.fit(train_dataset, epochs=5, batch_size=64, verbose=1)
# 模型评估
model.evaluate(test_dataset, batch_size=64, verbose=1)
# 保存模型
model.save('./output/mnist')
# 加载模型
model.load('output/mnist')
# 从测试集中取出一张图片
img, label = test_dataset[0]
# 将图片shape从1*28*28变为1*1*28*28,增加一个batch维度,以匹配模型输入格式要求
img_batch = np.expand_dims(img.astype('float32'), axis=0)
# 执行推理并打印结果,此处predict_batch返回的是一个list,取出其中数据获得预测结果
out = model.predict_batch(img_batch)[0]
pred_label = out.argmax()
print('true label: , pred label: '.format(label[0], pred_label))
# 可视化图片
from matplotlib import pyplot as plt
plt.imshow(img[0])

The loss value printed in the log is the current step, and the metric is the average value of previous steps.
Epoch 1/5
step 938/938 [==============================] - loss: 0.0519 - acc: 0.9344 - 14ms/step
Epoch 2/5
step 938/938 [==============================] - loss: 0.0239 - acc: 0.9767 - 14ms/step
Epoch 3/5
step 938/938 [==============================] - loss: 0.0416 - acc: 0.9811 - 14ms/step
Epoch 4/5
step 938/938 [==============================] - loss: 0.0084 - acc: 0.9837 - 14ms/step
Epoch 5/5
step 938/938 [==============================] - loss: 0.0838 - acc: 0.9860 - 14ms/step
Eval begin...
step 157/157 [==============================] - loss: 1.7577e-04 - acc: 0.9844 - 6ms/step
Eval samples: 10000
true label: 7, pred label: 7
<matplotlib.image.AxesImage at 0x7feb8a585dd0>

以上代码使用 MNIST 数据集训练并测试了 LeNet 模型&#xff0c;并最终成功推理出了一张手写数字图片的标签&#xff0c;该图片推理结果是 7 &#xff08; pred label: 7&#xff09;&#xff0c;真实标签也是7 &#xff08;true label: 7&#xff09;。

简单地说&#xff0c;深度学习任务一般分为以下几个核心步骤&#xff1a;


  1. 数据集定义与加载
  2. 模型组网
  3. 模型训练与评估
  4. 模型推理

接下来逐个步骤介绍&#xff0c;帮助你快速掌握使用飞桨框架实践深度学习任务的方法。


3.1 数据集定义与加载

飞桨在 paddle.vision.datasets 下内置了计算机视觉&#xff08;Computer Vision&#xff0c;CV&#xff09;领域常见的数据集&#xff0c;如 MNIST、Cifar10、Cifar100、FashionMNIST 和 VOC2012 等。在本任务中&#xff0c;先后加载了 MNIST 训练集&#xff08;mode&#61;&#39;train&#39;&#xff09;和测试集&#xff08;mode&#61;&#39;test&#39;&#xff09;&#xff0c;训练集用于训练模型&#xff0c;测试集用于评估模型效果。

import paddle
from paddle.vision.transforms import Normalize
transform &#61; Normalize(mean&#61;[127.5], std&#61;[127.5], data_format&#61;&#39;CHW&#39;)
# 下载数据集并初始化 DataSet
train_dataset &#61; paddle.vision.datasets.MNIST(mode&#61;&#39;train&#39;, transform&#61;transform)
test_dataset &#61; paddle.vision.datasets.MNIST(mode&#61;&#39;test&#39;, transform&#61;transform)
# 打印数据集里图片数量
print(&#39; images in train_dataset, images in test_dataset&#39;.format(len(train_dataset), len(test_dataset)))

60000 images in train_dataset, 10000 images in test_dataset

飞桨除了内置了 CV 领域常见的数据集&#xff0c;还在 paddle.text 下内置了自然语言处理&#xff08;Natural Language Processing&#xff0c;NLP&#xff09;领域常见的数据集&#xff0c;并提供了自定义数据集与加载功能的 paddle.io.Dataset 和 paddle.io.DataLoader API&#xff0c;详细使用方法可参考『数据集定义与加载』 章节。

另外在 paddle.vision.transforms 下提供了一些常用的图像变换操作&#xff0c;如对图像的翻转、裁剪、调整亮度等处理&#xff0c;可实现数据增强&#xff0c;以增加训练样本的多样性&#xff0c;提升模型的泛化能力。本任务在初始化 MNIST 数据集时通过 transform 字段传入了 Normalize 变换对图像进行归一化&#xff0c;对图像进行归一化可以加快模型训练的收敛速度。该功能的具体使用方法可参考『数据预处理』 章节。

更多参考&#xff1a;


  • 数据集定义与加载
  • 数据预处理

3.2 模型组网

飞桨的模型组网有多种方式&#xff0c;既可以直接使用飞桨内置的模型&#xff0c;也可以自定义组网。

『手写数字识别任务』比较简单&#xff0c;普通的神经网络就能达到很高的精度&#xff0c;在本任务中使用了飞桨内置的 LeNet 作为模型。飞桨在 paddle.vision.models 下内置了 CV 领域的一些经典模型&#xff0c;LeNet 就是其中之一&#xff0c;调用很方便&#xff0c;只需一行代码即可完成 LeNet 的网络构建和初始化。num_classes 字段中定义分类的类别数&#xff0c;因为需要对 0 ~ 9 的十类数字进行分类&#xff0c;所以设置为 10。

另外通过 paddle.summary 可方便地打印网络的基础结构和参数信息。

# 模型组网并初始化网络
lenet &#61; paddle.vision.models.LeNet(num_classes&#61;10)
# 可视化模型组网结构和参数
paddle.summary(lenet,(1, 1, 28, 28))

---------------------------------------------------------------------------
Layer (type) Input Shape Output Shape Param #
&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;
Conv2D-1 [[1, 1, 28, 28]] [1, 6, 28, 28] 60
ReLU-1 [[1, 6, 28, 28]] [1, 6, 28, 28] 0
MaxPool2D-1 [[1, 6, 28, 28]] [1, 6, 14, 14] 0
Conv2D-2 [[1, 6, 14, 14]] [1, 16, 10, 10] 2,416
ReLU-2 [[1, 16, 10, 10]] [1, 16, 10, 10] 0
MaxPool2D-2 [[1, 16, 10, 10]] [1, 16, 5, 5] 0
Linear-1 [[1, 400]] [1, 120] 48,120
Linear-2 [[1, 120]] [1, 84] 10,164
Linear-3 [[1, 84]] [1, 10] 850
&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;
Total params: 61,610
Trainable params: 61,610
Non-trainable params: 0
---------------------------------------------------------------------------
Input size (MB): 0.00
Forward/backward pass size (MB): 0.11
Params size (MB): 0.24
Estimated Total Size (MB): 0.35
---------------------------------------------------------------------------
&#39;total_params&#39;: 61610, &#39;trainable_params&#39;: 61610

通过飞桨的 paddle.nn.Sequential 和 paddle.nn.Layer API 可以更灵活方便的组建自定义的神经网络&#xff0c;详细使用方法可参考『模型组网』章节。

更多参考&#xff1a;


  • 模型组网

3.3 模型训练与评估


3.3.1 模型训练

模型训练需完成如下步骤&#xff1a;


  1. 使用 paddle.Model 封装模型。 将网络结构组合成可快速使用 飞桨高层 API 进行训练、评估、推理的实例&#xff0c;方便后续操作。
  2. 使用 paddle.Model.prepare 完成训练的配置准备工作。 包括损失函数、优化器和评价指标等。飞桨在 paddle.optimizer 下提供了优化器算法相关 API&#xff0c;在 paddle.nn Loss层 提供了损失函数相关 API&#xff0c;在 paddle.metric 下提供了评价指标相关 API。
  3. 使用 paddle.Model.fit 配置循环参数并启动训练。 配置参数包括指定训练的数据源 train_dataset、训练的批大小 batch_size、训练轮数 epochs 等&#xff0c;执行后将自动完成模型的训练循环。

因为是分类任务&#xff0c;这里损失函数使用常见的 CrossEntropyLoss &#xff08;交叉熵损失函数&#xff09;&#xff0c;优化器使用 Adam&#xff0c;评价指标使用 Accuracy 来计算模型在训练集上的精度。

# 封装模型&#xff0c;便于进行后续的训练、评估和推理
model &#61; paddle.Model(lenet)
# 模型训练的配置准备&#xff0c;准备损失函数&#xff0c;优化器和评价指标
model.prepare(paddle.optimizer.Adam(parameters&#61;model.parameters()),
paddle.nn.CrossEntropyLoss(),
paddle.metric.Accuracy())
# 开始训练
model.fit(train_dataset, epochs&#61;5, batch_size&#61;64, verbose&#61;1)

The loss value printed in the log is the current step, and the metric is the average value of previous steps.
Epoch 1/5
step 938/938 [&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;] - loss: 0.0011 - acc: 0.9865 - 14ms/step
Epoch 2/5
step 938/938 [&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;] - loss: 0.0045 - acc: 0.9885 - 14ms/step
Epoch 3/5
step 938/938 [&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;] - loss: 0.0519 - acc: 0.9896 - 14ms/step
Epoch 4/5
step 938/938 [&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;] - loss: 4.1989e-05 - acc: 0.9912 - 14ms/step
Epoch 5/5
step 938/938 [&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;] - loss: 0.0671 - acc: 0.9918 - 15ms/step

从训练过程的打印日志中&#xff0c;可观察到损失函数值 loss 逐渐变小&#xff0c;精度 acc 逐渐上升的趋势&#xff0c;反映出不错的训练效果。


3.3.2 模型评估

模型训练完成之后&#xff0c;调用 paddle.Model.evaluate &#xff0c;使用预先定义的测试数据集&#xff0c;来评估训练好的模型效果&#xff0c;评估完成后将输出模型在测试集上的损失函数值 loss 和精度 acc。

# 进行模型评估
model.evaluate(test_dataset, batch_size&#61;64, verbose&#61;1)

Eval begin...
step 157/157 [&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;] - loss: 5.7177e-04 - acc: 0.9859 - 6ms/step
Eval samples: 10000
&#39;loss&#39;: [0.00057177414], &#39;acc&#39;: 0.9859

从结果可以看到&#xff0c;初步训练得到的模型精度在98%附近&#xff0c;在逐渐熟悉深度学习模型开发和训练技巧后&#xff0c;可以通过调整其中的训练参数来进一步提升模型的精度。

更多参考&#xff1a;


  • 模型训练、评估与推理

3.4 模型推理


3.4.1 模型保存

模型训练完成后&#xff0c;通常需要将训练好的模型参数和优化器等信息&#xff0c;持久化保存到参数文件中&#xff0c;便于后续执行推理验证。

在飞桨中可通过调用 paddle.Model.save 保存模型。代码示例如下&#xff0c;其中 output 为模型保存的文件夹名称&#xff0c;minst 为保存的模型文件名称。

# 保存模型&#xff0c;文件夹会自动创建
model.save(&#39;./output/mnist&#39;)

以上代码执行后会在output目录下保存两个文件&#xff0c;mnist.pdopt为优化器的参数&#xff0c;mnist.pdparams为模型的参数。

output
├── mnist.pdopt # 优化器的参数
└── mnist.pdparams # 模型的参数

3.4.2 模型加载并执行推理

执行模型推理时&#xff0c;可调用 paddle.Model.load 加载模型&#xff0c;然后即可通过 paddle.Model.predict_batch 执行推理操作。

如下示例中&#xff0c;针对前面创建的 model 网络加载保存的参数文件 output/mnist&#xff0c;并选择测试集中的一张图片 test_dataset[0] 作为输入&#xff0c;执行推理并打印结果&#xff0c;可以看到推理的结果与可视化图片一致。

# 加载模型
model.load(&#39;output/mnist&#39;)
# 从测试集中取出一张图片
img, label &#61; test_dataset[0]
# 将图片shape从1*28*28变为1*1*28*28&#xff0c;增加一个batch维度&#xff0c;以匹配模型输入格式要求
img_batch &#61; np.expand_dims(img.astype(&#39;float32&#39;), axis&#61;0)
# 执行推理并打印结果&#xff0c;此处predict_batch返回的是一个list&#xff0c;取出其中数据获得预测结果
out &#61; model.predict_batch(img_batch)[0]
pred_label &#61; out.argmax()
print(&#39;true label: , pred label: &#39;.format(label[0], pred_label))
# 可视化图片
from matplotlib import pyplot as plt
plt.imshow(img[0])

true label: 7, pred label: 7
<matplotlib.image.AxesImage at 0x7f853e6f0e50>

更多参考&#xff1a;


  • 模型保存与加载
  • 模型训练、评估与推理

四、总结

至此通过飞桨几个简单的API完成了一个深度学习任务&#xff0c;总结整个流程和用到的关键 API 如下图所示。



模型开发流程

推荐阅读
  • 在对WordPress Duplicator插件0.4.4版本的安全评估中,发现其存在跨站脚本(XSS)攻击漏洞。此漏洞可能被利用进行恶意操作,建议用户及时更新至最新版本以确保系统安全。测试方法仅限于安全研究和教学目的,使用时需自行承担风险。漏洞编号:HTB23162。 ... [详细]
  • 利用python爬取豆瓣电影Top250的相关信息,包括电影详情链接,图片链接,影片中文名,影片外国名,评分,评价数,概况,导演,主演,年份,地区,类别这12项内容,然后将爬取的信息写入Exce ... [详细]
  • 使用多项式拟合分析淘宝双11销售趋势
    根据天猫官方数据,2019年双11成交额达到2684亿元,再次刷新历史记录。本文通过多项式拟合方法,分析并预测未来几年的销售趋势。 ... [详细]
  • 在多线程并发环境中,普通变量的操作往往是线程不安全的。本文通过一个简单的例子,展示了如何使用 AtomicInteger 类及其核心的 CAS 无锁算法来保证线程安全。 ... [详细]
  • 开机自启动的几种方式
    0x01快速自启动目录快速启动目录自启动方式源于Windows中的一个目录,这个目录一般叫启动或者Startup。位于该目录下的PE文件会在开机后进行自启动 ... [详细]
  • 利用REM实现移动端布局的高效适配技巧
    在移动设备上实现高效布局适配时,使用rem单位已成为一种流行且有效的技术。本文将分享过去一年中使用rem进行布局适配的经验和心得。rem作为一种相对单位,能够根据根元素的字体大小动态调整,从而确保不同屏幕尺寸下的布局一致性。通过合理设置根元素的字体大小,开发者可以轻松实现响应式设计,提高用户体验。此外,文章还将探讨一些常见的问题和解决方案,帮助开发者更好地掌握这一技术。 ... [详细]
  • 如何将Python与Excel高效结合:常用操作技巧解析
    本文深入探讨了如何将Python与Excel高效结合,涵盖了一系列实用的操作技巧。文章内容详尽,步骤清晰,注重细节处理,旨在帮助读者掌握Python与Excel之间的无缝对接方法,提升数据处理效率。 ... [详细]
  • PTArchiver工作原理详解与应用分析
    PTArchiver工作原理及其应用分析本文详细解析了PTArchiver的工作机制,探讨了其在数据归档和管理中的应用。PTArchiver通过高效的压缩算法和灵活的存储策略,实现了对大规模数据的高效管理和长期保存。文章还介绍了其在企业级数据备份、历史数据迁移等场景中的实际应用案例,为用户提供了实用的操作建议和技术支持。 ... [详细]
  • 非线性门控感知器算法的实现与应用分析 ... [详细]
  • 基于Net Core 3.0与Web API的前后端分离开发:Vue.js在前端的应用
    本文介绍了如何使用Net Core 3.0和Web API进行前后端分离开发,并重点探讨了Vue.js在前端的应用。后端采用MySQL数据库和EF Core框架进行数据操作,开发环境为Windows 10和Visual Studio 2019,MySQL服务器版本为8.0.16。文章详细描述了API项目的创建过程、启动步骤以及必要的插件安装,为开发者提供了一套完整的开发指南。 ... [详细]
  • Python 序列图分割与可视化编程入门教程
    本文介绍了如何使用 Python 进行序列图的快速分割与可视化。通过一个实际案例,详细展示了从需求分析到代码实现的全过程。具体包括如何读取序列图数据、应用分割算法以及利用可视化库生成直观的图表,帮助非编程背景的用户也能轻松上手。 ... [详细]
  • Android 构建基础流程详解
    Android 构建基础流程详解 ... [详细]
  • Visual Studio Code (VSCode) 是一款功能强大的源代码编辑器,支持多种编程语言,具备丰富的扩展生态。本文将详细介绍如何在 macOS 上安装、配置并使用 VSCode。 ... [详细]
  • Python多线程编程技巧与实战应用详解 ... [详细]
  • 深入解析CAS机制:全面替代传统锁的底层原理与应用
    本文深入探讨了CAS(Compare-and-Swap)机制,分析了其作为传统锁的替代方案在并发控制中的优势与原理。CAS通过原子操作确保数据的一致性,避免了传统锁带来的性能瓶颈和死锁问题。文章详细解析了CAS的工作机制,并结合实际应用场景,展示了其在高并发环境下的高效性和可靠性。 ... [详细]
author-avatar
勉情于你
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有